| 廣告聯系 | 簡體版 | 手機版 | 微信 | 微博 | 搜索:
歡迎您 游客 | 登錄 | 免費注冊 | 忘記了密碼 | 社交賬號注冊或登錄

首頁

新聞資訊

論壇

溫哥華地產

大溫餐館點評

溫哥華汽車

溫哥華教育

黃頁/二手

旅游

AI戰場識別漏洞頻出 以軍曾將3600人誤判為目標


請用微信 掃一掃 掃描上面的二維碼,然後點擊頁面右上角的 ... 圖標,然後點擊 發送給朋友分享到朋友圈,謝謝!
美軍在對伊朗的軍事打擊中首次披露使用AI輔助決策,而類似技術在加沙沖突中已被證實存在10%誤判率。


彭博社3月5日報道,能夠幫你起草營銷郵件或晚餐食譜的同一個人工智能模型,也被用來打擊伊朗美國中央司令部在對伊朗的打擊行動中,使用了Anthropic公司的Claude人工智能進行“情報評估、目標識別和模擬戰場場景”。

報道稱,人工智能長期以來一直被用於戰爭,比如分析衛星圖像、檢測網絡威脅和引導導彈防御系統。但如今,聊天機器人正在戰場上投入使用。值得注意的是,所有這些都發生在監管真空中,而且所使用的技術是已知會出錯的。


這並非不可靠的人工智能系統首次被用於戰爭。“薰衣草”(Lavender)是一個人工智能驅動的數據庫,曾用於幫助以色列識別與加沙地帶的哈馬斯有關的軍事目標。它並非大型語言模型,而是通過分析海量監控數據(如社交聯系和位置歷史)為每個人分配1到100的評分。當某人的評分超過特定閾值時,“薰衣草”會將其標記為軍事目標。


問題是,根據一份調查報告顯示,“薰衣草”的錯誤率高達10%。牛津大學的瑪麗亞羅薩裡亞·塔德奧教授稱,“大約有3600人被錯誤地鎖定為目標。”

倫敦瑪麗女王大學政治理論教授埃爾克·施瓦茨表示,“這些系統存在難以置信的漏洞和極端的不可靠性……而對於戰爭這樣動態、敏感且充滿人性因素的事務而言,這尤其危險。”


施瓦茨指出,人工智能在戰爭中通常被用於加快速度,而這往往會導致不希望看到的結果。決策的制定速度更快、規模更大,而人類的審查卻更少。她說,過去十五年裡,人工智能在軍事上的使用變得更加不透明。

當前關於Anthropic公司與五角大樓爭執的公共辯論——涉及人工智能在對美國人進行大規模監視或創造完全自主武器方面,什麼是合法和道德的——忽略了一個更大的問題,即這項技術如何在戰爭中使用缺乏透明度。對於這種容易出錯、新穎且未經測試的系統,透明度至關重要。塔德奧說:“我們作為一個社會,還沒有決定是否接受由機器來決定一個人是否應該被殺死。”
點個贊吧!您的鼓勵讓我們進步     無評論不新聞,發表一下您的意見吧
注:
  • 新聞來源於其它媒體,內容不代表本站立場!
  • 猜您喜歡:
    您可能也喜歡:
    我來說兩句:
    評論:
    安全校驗碼:
    請在此處輸入圖片中的數字
    The Captcha image
    Terms & Conditions    Privacy Policy    Political ADs    Activities Agreement    Contact Us    Sitemap    

    加西網為北美中文網傳媒集團旗下網站

    頁面生成: 0.0231 秒 and 5 DB Queries in 0.0024 秒